Le parole sono codificate da singoli elementi neuronici

 

 

DIANE RICHMOND & GIOVANNI ROSSI

 

 

NOTE E NOTIZIE - Anno XXI – 10 febbraio 2024.

Testi pubblicati sul sito www.brainmindlife.org della Società Nazionale di Neuroscienze “Brain, Mind & Life - Italia” (BM&L-Italia). Oltre a notizie o commenti relativi a fatti ed eventi rilevanti per la Società, la sezione “note e notizie” presenta settimanalmente lavori neuroscientifici selezionati fra quelli pubblicati o in corso di pubblicazione sulle maggiori riviste e il cui argomento è oggetto di studio dei soci componenti lo staff dei recensori della Commissione Scientifica della Società.

 

 

[Tipologia del testo: RECENSIONE]

 

Anche se da oltre un secolo e mezzo abbiamo modelli neurologici del linguaggio umano e negli ultimi venti anni si è andata sviluppando una concezione delle basi neurali della comunicazione verbale basata sulle funzioni di complesse reti mediatrici dei processi, abbandonando lo schema solo corticale del modello di Wernicke-Geschwind, non conosciamo ancora il modo in cui gruppi neuronici e interazioni di rete assemblino le codifiche fonemiche per formare ed articolare parole, frasi e discorsi. Se si pensa al faticoso addestramento delle reti neurali in grado di parlare grazie a una ricca base dati di memoria, non si può non essere affascinati dalla nostra capacità immediata ed efficiente di generare innumerevoli combinazioni di movimenti articolatori per generare locuzioni significative nella nostra lingua madre e in altre lingue apprese.

L’abilità di orchestrare specifiche sequenze fonetiche – ossia di suoni linguistici – sillabificati e inflessi secondo il lessico e la grammatica per la specifica intenzione significativa, nella scala temporale di frazioni di secondo per produrre migliaia di suoni verbali differenti, costituisce una parte essenziale della funzione cerebrale che ci consente di comunicare mediante una lingua verbale; dunque, è alla base del prodigio della parola umana, ma non sappiamo ancora come tutto sia possibile.

Anche un bambino può, per gioco, inventare nuove parole deformando quelle che conosce e nel nuovo lessico esprimere pensieri, fare richieste o dire cose divertenti: non c’è niente di rigido alla base di questa abilità, e ciò che è necessariamente fisso, per poter essere usato proceduralmente in frazioni di secondo senza errore, è il prodotto di una memorizzazione che ha rinforzato e consolidato secondo livelli razionali di uso le unità neurali codificate.

Ma quali sono, come sono e dove sono queste unità neurali?

Le unità cellulari fondamentali e i costrutti mediante i quali il nostro cervello pianifica e produce da singoli fonemi a interi discorsi sono in gran parte ignoti, anche se una messe di dati indica e suggerisce numerose associazioni tra attività di neuroni corticali ed esecuzione individuale della lingua, in contesti di osservazione sperimentale.

Arjun R. Khanna e colleghi, impiegando la nuova tecnologia AUDNR (acute ultrahigh-density Neuropixels recordings) durante il parlare di volontari, hanno scoperto nella corteccia prefrontale dominante per il linguaggio dei neuroni che codificano dettagliate informazioni fonetiche su vari aspetti delle parole pianificate in uscita. Qui si presentano gli aspetti più interessanti ed affascinanti di questo studio.

(Khanna A. R. et al., Single-neuronal elements of speech production in humans. Nature – Epub ahead of print doi: 10.1038/s41586-023-06982-w, 2024).

La provenienza degli autori è la seguente: Department of Neurosurgery, Massachusetts General Hospital, Harvard Medical School, Boston, MA (USA); Department of Neurology, Massachusetts General Hospital, Harvard Medical School, Boston, MA (USA); Harvard Medical School, Boston, MA (USA); Harvard-MIT Division of Health Sciences and Technology, Boston, MA (USA); Harvard Medical School, Program in Neuroscience, Boston, MA (USA).

Le basi cerebrali della funzione comunicativa verbale sono state un argomento della neuropsicologia classica, che le riconduceva a schemi anatomo-clinici, ossia a ricostruzioni di funzioni alterate nelle sindromi afasiche, in base alla sede del danno identificata allo studio post-mortem del cervello dei pazienti. Oggi si sta completando un lungo processo di transizione verso approcci neuroscientifici recenti, in cui le basi del linguaggio si studiano osservando il cervello in funzione di volontari.

Per introdurre il lettore non specialista a questo affascinante campo di studi e facilitare la comprensione della portata dei risultati dello studio qui recensito, si propongono alcuni brani tratti da nostri articoli precedenti.

Il tradizionale modello neurologico del linguaggio, originato dagli studi anatomo-clinici, con le aree corticali di Broca e di Wernicke dell’emisfero sinistro collegate da un fascio unidirezionale, ha a lungo condizionato il modo di concepire le basi della funzione comunicativa e, sebbene oggi si disponga di una vasta mole di dati a sostegno di una realtà molto più complessa, si stenta a definire nuovi modelli. Sulla base della fisiologia del controllo corticale e dei deficit derivanti dalla sua patologia, si è concepita la funzione comunicativa come una facoltà rigidamente compartimentata e localizzata. Si distingueva, come nell’organizzazione del midollo spinale, un versante motorio ed uno recettivo.

Quello motorio, coincidente con un territorio corticale anteriore, sito presso il piede della terza circonvoluzione frontale di sinistra[1], nell’area 44 della mappa di Brodmann e detto area di Broca, dal nome del neurologo ed antropologo francese che nel 1861 descrisse per primo l’afasia non fluente dovuta alla sua lesione[2]. Quello recettivo, coincidente con un territorio corticale posteriore, contiguo all’area uditiva temporale, prossimo al giro angolare e alla corteccia occipitale, detto area di Wernicke, dal nome del giovane neurologo che nel 1874 descrisse l’afasia fluente dovuta alla sua lesione[3].

Per circa un secolo, sebbene vi fossero teorie alternative come quella di Pierre-Marie, si è pensato alle basi cerebrali della facoltà di comunicazione verbale umana come a due moduli: uno di elaborazione recettiva per la comprensione della parola udita o letta, ed uno di programmazione esecutiva per la produzione vocale della lingua parlata. A questi due moduli principali, uniti da un fascio di connessione[4] e costituiti dalle due aree corticali dell’emisfero sinistro, venivano aggiunte ipotetiche aree secondarie per compiti specializzati, il cui ruolo era desunto dai deficit derivanti da loro lesioni e solo raramente da stimolazione elettrofunzionale. Naturalmente, un tale complesso specializzato per il linguaggio era concepito in connessione con le aree sensoriali dell’udito e della vista, con le aree motorie per l’articolazione della parola, con le aree associative e con un ipotetico centro del pensiero, sede dell’elaborazione cognitiva.

Questo modello era stato proposto da Carl Wernicke nel 1874[5] ed aggiornato con nuove connessioni e dettagli negli anni Sessanta del Novecento da Norman Geschwind, dando luogo allo schema detto di Wernicke–Geschwind.

Le comode certezze ispirate da questa concezione modulare, semplice e schematica, hanno cominciato a vacillare con gli studi funzionali condotti durante l’esecuzione di compiti linguistici mediante tomografia ad emissione di positroni (PET), risonanza magnetica funzionale (fMRI), elettroencefalografia (EEG) e magnetoencefalografia (MEG) che hanno rivelato schemi di attivazione estesi e complessi che, combinati con le nozioni emergenti dalla ricerca neuroscientifica, hanno suggerito l’esistenza di una complessa architettura funzionale che include l’emisfero destro.

La complessità rende ragione di una qualità speciale della facoltà di parola umana che non è resa dal semplice paragone con le abilità comunicative delle altre specie. Le api codificano e trasmettono la distanza e la direzione del miele mediante una danza, i maschi di molte specie di uccelli attraggono le femmine con il canto, gli scimpanzé ed altre scimmie hanno un repertorio di suoni vocali specifici per comunicare stati affettivi ed emozionali legati al desiderio sessuale, alla paura, all’aggressività. L’invenzione, l’apprendimento e l’uso delle lingue verbali umane, che include come traccia paradigmatica di base queste abilità animali, va molto oltre. Ogni lingua può essere definita come un insieme finito di suoni che può essere combinato con un numero illimitato di possibilità.

In realtà, il nostro cervello impiega in entrata e in uscita, anche nella codifica grafica (scrittura), delle unità di informazione elementari corrispondenti ai singoli suoni o fonemi, che combina in piccole unità semantiche chiamate morfemi. Rispettando le regole trasmesse e apprese di una lingua, può combinare i morfemi in parole, e queste, secondo la sintassi, in un numero potenzialmente infinito di frasi. Lo sviluppo del linguaggio nel bambino segue un piano universale e, secondo studi recenti, non può essere ricondotto né al paradigma di Skinner basato eccessivamente su modellamento e rinforzo esterno, né alla visione di Chomsky troppo genericamente legata ad una ipotesi innatista. Proprio lo studio dei processi che consentono l’acquisizione della lingua madre da parte dei bambini, ha aperto orizzonti nuovi di comprensione della funzione comunicativa umana, che meritano di essere conosciuti ed ulteriormente indagati. Sicuramente oggi si ha una visione più chiara delle abilità linguistiche nella prima infanzia, soprattutto grazie ai progressi nelle conoscenze relative allo sviluppo cognitivo, che hanno fornito strumenti per andare oltre la semplice osservazione fenomenica e comportamentale. Sappiamo che, quando un bambino di un anno pronuncia le prime parole, è in grado di conferire un valore semantico associativo a non meno di 60-90 termini. Se a 15 mesi comprende il senso di frasi bitermine concretistiche (bevi-latte), a 16, quando pronuncia 50 parole distinte, comprende da 170 a 230 termini della lingua madre.

Ritornando al superato modello Wernicke–Geschwind, ci si può chiedere cosa rimanga oggi di valido in quella visione, oltre al riconoscimento delle due aree corticali che, seppure non più ritenute dei “centri” esclusivi, si sa che svolgono un’importante funzione specializzata al livello della funzione integrativa corticale. Si può rispondere che il ruolo privilegiato dell’emisfero sinistro rimane un fatto certo, con la sola eccezione della piccola percentuale di mancini veri che presentano un’inversione con controllo corticale a destra e la quota ancora più bassa dei rari casi di cosiddetta “dominanza doppia” (ambidestri). La specializzazione dell’emisfero sinistro per l’elaborazione fonetica, delle parole e delle frasi, non ha un esatto compenso in un ruolo specifico ed esclusivo dell’emisfero destro per la prosodia, come si era creduto due decenni fa. L’elaborazione prosodica impegna entrambi gli emisferi, con variazioni che dipendono dall’informazione veicolata.”[6]

La tradizionale concezione anatomo-clinica, basata sul confronto tra lesioni cerebrali autoptiche e profilo prestazionale ai test neuropsicologici, conferiva estrema importanza alle aree di Broca e Wernicke nell’ottica di una semplificazione localizzatrice della funzione verbale secondo un modello con due versanti uno esecutivo e l’altro recettivo uniti dal fascio di conduzione.

Già gli studi tomografici e mediante PET condotti negli anni Ottanta avevano minato la validità di questo modello, mostrando casi che presentavano “lesioni inattese”, come nella serie di 63 pazienti studiati da Anna Basso con Lecours, Moraschini e Vanier (1985), in cui si rilevarono 4 casi di afasia non fluente tipo Broca con lesioni retro-rolandiche e area 44 assolutamente indenne; anche se Tramo Bayes e Volpe notarono in uno di questi casi un recupero della comprensione sintattica a un anno dall’ictus, che non si verificava nei pazienti con lesione dell’area di Broca, era evidente la realtà di basi morfo-funzionali del linguaggio molto più complesse di quelle definite dal modello anatomo-clinico ipotizzato per la prima volta da Wernicke.

Alcuni studi PET in pazienti con afasia di Broca cronica mostrarono riduzione del metabolismo nell’emisfero cerebellare destro, così che si parlò di “diaschisi cerebellare crociata”. Seguirono negli anni Novanta gli studi di Antonio e Anna Damasio, dai quali emerse un nuovo modello di organizzazione funzionale del linguaggio nel cervello, poi riportato come standard nel trattato di neuroscienze di Kandel, Schwartz, Jessell, Siegelbaum, Hudspeth (2013). Negli ultimi anni sono emersi dati che hanno reso ancora più complesso il quadro delle reti funzionali attive per la comprensione e l’esecuzione della parola nella comunicazione verbale umana”[7].

Dopo questa introduzione possiamo tornare allo studio qui recensito, che presenta specificità di codifica di caratteri del linguaggio parlato e ascoltato da parte di singoli neuroni della corteccia prefrontale dell’emisfero dominante.

Le registrazioni AUDNR (acute ultrahigh-density Neuropixels recordings) adottate da Arjun R. Khanna e colleghi sono in grado di realizzare un campionamento attraverso le colonne di dominanza corticale e, in tal modo, hanno consentito di individuare nuove cellule nervose con un ruolo specifico durante la produzione di linguaggio verbale, in forma di eloquio spontaneo, da parte dei volontari partecipanti allo studio. I neuroni, scoperti nella corteccia prefrontale dell’emisfero dominante per il linguaggio verbale (quasi sempre il sinistro) codificavano informazioni dettagliate circa l’organizzazione fonetica e la composizione delle parole pianificate per l’esecuzione fonoarticolatoria, durante le prestazioni comunicative secondo l’uso naturale della lingua parlata.

Le caratteristiche funzionali presentate da questi neuroni possono essere così sintetizzate:

1)      queste cellule nervose rappresentavano lo specifico ordine e la specifica struttura degli eventi articolatori prima della pronuncia delle parole;

2)      riflettevano con precisione la segmentazione di sequenze fonetiche in sillabe distinte;

3)      predicevano accuratamente i costituenti fonetico, sillabico e morfologico delle parole imminenti;

4)      presentavano una dinamica ordinata temporalmente.

Questi caratteri dei neuroni di nuova identificazione indicano già un preciso profilo funzionale al livello cellulare di processi che, tradizionalmente, erano indagati come ipotetiche proprietà di aree della corteccia cerebrale. Ma questo è solo il primo dei risultati ottenuti da questo interessante lavoro.

I ricercatori hanno infatti caratterizzato e descritto collettivamente queste cellule singolarmente specializzate e “mescolate” con altri neuroni, in modo da costituire un insieme organizzato ampiamente lungo le colonne corticali, e hanno studiato il modo in cui i loro pattern di attivazione vanno incontro a transizione, dalla pianificazione dell’articolazione ai modi che codificano gli eventi della produzione delle parole.

Khanna e colleghi hanno poi dimostrato come le cellule nervose da loro scoperte tracciano affidabilmente la dettagliata e distinta composizione in 1) consonanti (suoni consonantici) e 2) vocali (suoni vocalici) durante la percezione uditiva delle parole pronunciate; e, infine, come questi neuroni sono in grado di distinguere la categoria dei processi associati alla facoltà di parlare in esecuzione, dalla categoria di processi associati all’ascolto della parola.

Quest’ultima proprietà demolisce definitivamente il modello di Wernicke-Geschwind basato sulla localizzazione esclusiva della produzione nell’area anteriore frontale (area di Broca o 44 di Brodmann) e della ricezione nell’area posteriore prossima al giro angolare (area di Wernicke o 22 e viciniori). Soprattutto, questi risultati rivelano un’inedita organizzazione funzionale rilevantemente strutturata e una codifica a cascata delle rappresentazioni fonetiche da parte della corteccia prefrontale sinistra umana, e dimostrano per la prima volta, in modo inequivocabile, processi cellulari in grado di supportare la produzione dell’eloquio affidata all’attività delle reti neuroniche cerebrali.

 

Gli autori della nota ringraziano la dottoressa Isabella Floriani per la correzione della bozza e invitano alla lettura delle recensioni di argomento connesso che appaiono nella sezione “NOTE E NOTIZIE” del sito (utilizzare il motore interno nella pagina “CERCA”).

 

Diane Richmond & Giovanni Rossi

BM&L-10 febbraio 2024

www.brainmindlife.org

 

 

 

________________________________________________________________________________

 

La Società Nazionale di Neuroscienze BM&L-Italia, affiliata alla International Society of Neuroscience, è registrata presso l’Agenzia delle Entrate di Firenze, Ufficio Firenze 1, in data 16 gennaio 2003 con codice fiscale 94098840484, come organizzazione scientifica e culturale non-profit.

 

 

 



[1] Il piede della terza circonvoluzione frontale corrisponde alla parte opercolare del giro frontale inferiore.

[2] Paul Broca era già celebre, quando comunicò alla Società di Antropologia di Parigi la scoperta del “centro motore del linguaggio” dall’esame autoptico di un paziente capace di ripetere sono il monosillabo “tan”. Chiamò afemia, quella che sarà poi definita afasia motoria. Nel 1865 pubblicò un’osservazione decisiva per stabilire la localizzazione esclusiva a sinistra, introducendo la concezione di un emisfero “dominante”.

[3] Fu la prima pubblicazione di Carl Wernicke, un allievo di Theodor Meynert di 26 anni che lavorava come assistente neurologo presso il reparto di neurologia dell’ospedale di Bratislava. Wernicke proponeva uno schema in cui il fascicolo arcuato portava l’informazione dall’area recettiva deputata alla comprensione della parola a quella esecutiva contenente i programmi motori che consentono di parlare.

[4] È solo di recente che è stata descritta la via indiretta di connessione da Marco Catani e colleghi (si veda in “Note e Notizie 07-10-05 Nuove vie e nuove basi neurali per il linguaggio”).

[5] Il modello area di Broca-fascicolo arcuato-area di Wernicke è considerato il prototipo dei modelli connessionisti.

[6] Note e Notizie 25-10-14 Nuova visione del linguaggio nel cervello.

[7] Note e Notizie 02-10-21 Area di Broca umana rivela nuovi aspetti nel confronto col macaco. Si consiglia la lettura dall’inizio di questo articolo anche per introdursi all’afasiologia. Altri spunti interessanti e recenti sulle basi cerebrali del linguaggio si trovano in Note e Notizie 18-02-23 Il cervello di poliglotti e superpoliglotti. Nelle “Note e Notizie” si può consultare una vera banca dati della ricerca degli ultimi due decenni in questo campo.